花费 7 ms
word2vec参数理解

之前写了对word2vec的一些简单理解,实践过程中需要对其参数有较深的了解: class gensim.models.word2vec.Word2Vec(sentences=None,size=1 ...

Mon Oct 22 00:34:00 CST 2018 0 6338
Word Embedding理解

一直以来感觉好多地方都吧Word Embedding和word2vec混起来一起说,所以导致对这俩的区别不是很清楚。 其实简单说来就是word embedding包含了word2vec,word2 ...

Sun Oct 21 20:16:00 CST 2018 0 5275
word2vec训练好的词向量

虽然早就对NLP有一丢丢接触,但是最近真正对中文文本进行处理才深深感觉到自然语言处理的难度,主要是机器与人还是有很大差异的,毕竟人和人之间都是有差异的,要不然不会讲最难研究的人嘞 ~~~~~~~~~ ...

Fri Oct 19 02:45:00 CST 2018 4 4444
几种简单的主题模型(生成模型)

了解主题模型,一般都会提到几种最基础的生成模型:Unigram model、Mixture of unigram,pLSA,接下来简单介绍一下他们之间的区别: 1.Unigram model 左图 ...

Sun Oct 21 06:37:00 CST 2018 0 1588
BTM学习小记

BTM的原理跟LDA很像,下面是该模型的概率图: 由该图可以看出来,与LDA的区别在于确定主题分布和词分布后相应地取两个词(而LDA只取一个,即类比常见的骰子说法:先投掷K面的骰子得到主题z,再 ...

Sun Oct 21 04:43:00 CST 2018 2 995

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM